马尔可夫决策过程(MDP)是在顺序决策中常用的正式模型。 MDP捕获了可能出现的随机性,例如,通过过渡函数中的概率从不精确的执行器中捕获。但是,在数据驱动的应用程序中,从(有限)数据中得出精确的概率引入了可能导致意外或不良结果的统计错误。不确定的MDP(UMDP)不需要精确的概率,而是在过渡中使用所谓的不确定性集,占此类有限的数据。正式验证社区中的工具有效地计算了强大的政策,这些政策在不确定性集中最坏的情况下,可以证明遵守正式规格,例如安全限制。我们不断地以强大的学习方法与将专用的贝叶斯推理方案与强大策略的计算结合在一起的任何时间学习方法中不断学习MDP的过渡概率。特别是,我们的方法(1)将概率近似为间隔,(2)适应可能与中间模型不一致的新数据,并且可以随时停止(3),以在UMDP上计算强大的策略,以忠实地捕获稳健的策略到目前为止的数据。我们展示了我们的方法的有效性,并将其与在几个基准的实验评估中对UMDP计算出的UMDP进行了比较。
translated by 谷歌翻译